FILTER MODE ACTIVE

#языковые модели

Найдено записей: 21

#языковые модели30.07.2025

Рубрики как Награды: Улучшение Обучения Языковых Моделей с Помощью Структурированной Многофакторной Оценки

'Rubrics as Rewards (RaR) представляет метод обучения с подкреплением, использующий структурированные рубрики для повышения качества обучения языковых моделей в медицине и науке.'

#языковые модели27.07.2025

Революция в оценке ИИ: сила контекстуализированных запросов

Новое исследование показывает, что добавление контекста к неоднозначным запросам пользователей значительно улучшает оценку моделей ИИ, выявляет предвзятость и меняет рейтинги моделей.

#языковые модели19.07.2025

FlexOlmo: революция в обучении языковых моделей без обмена данными

FlexOlmo предлагает модульный фреймворк для обучения крупных языковых моделей на приватных данных без обмена ими, обеспечивая высокую производительность и соблюдение правил управления данными.

#языковые модели29.06.2025

DeepRare: Революция в диагностике редких заболеваний с помощью AI-агентной технологии

DeepRare — AI-платформа, которая значительно улучшает диагностику редких заболеваний, интегрируя языковые модели с клиническими и геномными данными для высокой точности.

#языковые модели26.06.2025

MEM1: революция в экономии памяти для языковых агентов с долгосрочной памятью

Исследователи из MIT и NUS представили MEM1 — фреймворк обучения с подкреплением для эффективного управления памятью языковых агентов при выполнении сложных многошаговых задач, превосходящий крупные модели по скорости и ресурсной эффективности.

#языковые модели11.06.2025

Прорыв Meta: новая методика измеряет, сколько языковые модели запоминают на уровне бит

Meta и партнёры разработали новую методику для точного измерения запоминания языковых моделей, показав, что GPT хранит около 3,6 бит на параметр, и предоставили важные инсайты о различии между запоминанием и обобщением.

#языковые модели10.06.2025

Революция в ИИ: как инструменты расширяют возможности языковых моделей в рассуждениях, памяти и автономии

Инструментально-усиленные AI-агенты расширяют языковые модели, интегрируя рассуждения, память и автономные функции для создания более умных и надежных систем.

#языковые модели05.06.2025

NVIDIA представила ProRL: длительное обучение с подкреплением улучшает рассуждения и обобщение в ИИ

NVIDIA представила ProRL — новый метод обучения с подкреплением, который за счет увеличения длительности тренировки раскрывает новые способности к рассуждению в моделях ИИ и показывает высокую эффективность на различных тестах.

#языковые модели27.05.2025

Phi-4-Reasoning доказывает: в ИИ мышлении больше — не всегда значит лучше

Microsoft Phi-4-reasoning показывает, что качественные и тщательно подобранные данные позволяют меньшим моделям ИИ выполнять сложные задачи рассуждения так же эффективно, как и гораздо большим моделям, опровергая миф о необходимости больших моделей.

#языковые модели22.05.2025

Anthropic представляет Claude Opus 4 и Sonnet 4: значительный шаг в AI-логике и программировании

Anthropic представила Claude Opus 4 и Sonnet 4 — модели с улучшенной логикой, кодированием и агентными функциями, расширяющие возможности AI для разработки и автономных систем.

#языковые модели21.05.2025

PARSCALE: Революция в масштабировании языковых моделей с помощью параллельных вычислений

PARSCALE предлагает новый подход к масштабированию языковых моделей через параллельные вычисления, снижая использование памяти и задержки при улучшении производительности.

#языковые модели14.05.2025

Использование токсичных данных в предобучении LLM для улучшения детоксикации и управления

Новое исследование показывает, что включение токсичных данных в предобучение LLM улучшает способность модели к детоксикации и управлению, создавая более безопасные и устойчивые языковые модели.

#языковые модели13.05.2025

RLV: Улучшение рассуждений языковых моделей с помощью интегрированной проверки без использования value-функции

RLV представляет собой объединённый подход, интегрирующий верификацию в value-free обучение с подкреплением для языковых моделей, значительно повышая точность рассуждений и эффективность вычислений на математических тестах.

#языковые модели03.05.2025

Исследователи UC Berkeley и UCSF представляют Adaptive Parallel Reasoning для эффективного масштабирования вывода LLM без превышения контекстного окна

Исследователи из UC Berkeley и UCSF разработали Adaptive Parallel Reasoning — метод, позволяющий большим языковым моделям динамически распределять вычисления вывода по параллельным потокам, повышая эффективность рассуждений без превышения контекстных ограничений.

#языковые модели27.04.2025

Оптимизация производительности рассуждений: подробный анализ методов масштабирования во время инференса в языковых моделях

Новое исследование демонстрирует, что специализированные модели рассуждений с эффективными методами масштабирования во время инференса, такими как голосование большинства, превосходят общие модели в сложных задачах, открывая пути к оптимизации ресурсов.